都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型? - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型? - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 27 篇相关文章 · 第 2 / 2 页

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 09:55:51+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 09:54:19+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 09:45:19+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 09:38:00+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 09:32:23+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 09:22:36+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 09:18:47+08:00